
康乃狄克州參議院本週通過全面的AI法案SB 5,對企業使用AI工具制定了多項新規定,尤其在就業、消費者保護及大型AI模型開發商的責任方面,此舉為美國AI監管樹立了新標竿。同時,OpenAI正向各國政府簡報其新的網路安全AI模型,而AI公司Anthropic近期也因調整其Claude Code服務定價引發用戶混淆,凸顯AI產業在法規、安全與市場策略多重壓力下的動態發展。
康乃狄克州參議院本週以 32 票贊成、4 票反對的壓倒性票數,批准了一項內容廣泛的人工智慧(AI)政策法案 SB 5。這項長達逾 70 頁的法案不僅涵蓋消費者保護,更對企業使用AI工具制定了新的合規義務,特別是在徵才與僱用方面,此舉可能為美國各地的人工智慧監管樹立先例。
根據《CBIA》報導,SB 5 法案建立了自動化就業決策技術的監管框架,包括用於申請人篩選、候選人排序、績效評估以及升遷、紀律或解僱決策的軟體。這項定義廣泛,可能涵蓋第三方徵才平台、履歷篩選軟體、評估工具、排班演算法及績效分析系統等,僅排除如文書處理或試算表等例行性技術。自 2027 年 10 月 1 日起,使用這些 AI 工具的雇主必須在 AI 系統作為就業決策的實質因素時,通知受影響的個人,並說明其目的、技術名稱、分析的個人資料類別與來源,以及雇主聯絡資訊。法案同時修正了反歧視法規,明確指出使用自動化決策技術不能作為就業歧視索賠的抗辯理由,違規行為將被視為不公平或欺騙性貿易行為,並由康涅狄克州檢察長負責執法。
此外,該法案也觸及多個面向。訂閱制 AI 供應商必須揭露主要條款、功能限制及存取限制政策。開發「前瞻模型」(frontier models)的大型開發商須建立內部吹哨者保護機制,並通報災難性風險。經濟與社區發展部將負責設計 AI 監管沙盒,以測試創新的 AI 產品。提供「AI 陪伴」服務的公司必須揭露使用者正與 AI 互動,並防止鼓勵自殘或暴力行為,且針對未成年者實施保護措施。每月用戶超過百萬的大型消費者導向生成式 AI 供應商,須在 AI 生成或實質修改的媒體內容中嵌入內容溯源數據。康乃狄克州還將成立 AI 學院,擴大 AI 勞動力培訓,並要求揭露 AI 相關的裁員情況,同時指導州政府機構協助小型企業採用 AI。
在聯邦層級,各國政府正積極與 AI 企業合作。OpenAI 本週二(2026年4月21日)在華盛頓哥倫比亞特區向聯邦機構、州政府及五眼聯盟(Five Eyes)盟友的約 50 名網路防禦專家簡報其最新的網路安全 AI 模型 GPT-5.4-Cyber。據《Benzinga》報導,該模型將採雙軌制部署:一個版本帶有安全防護供廣泛使用,另一個更具網路能力的版本則透過「信任存取計畫」(Trusted Access program)供防禦者使用。此模型也將透過包含澳洲、加拿大、紐西蘭和英國的情報共享夥伴關係提供。報導指出,美國國家安全局(NSA)據傳已在使用 Anthropic 的 ClaudeMythos Preview 進行網路防禦,而五角大廈(Pentagon)則已將 Anthropic 列為供應鏈風險,顯示政府對 AI 應用的謹慎態度。
在此波監管浪潮與市場競逐下,AI 公司也面臨營運挑戰。據《Business Insider》揭露,Anthropic 近期曾進行一項「實驗」,短暫地將其 Claude Code 服務從專業用戶方案中移除,並將月費從 20 美元提高至 100 美元。此舉引發用戶混淆,Anthropic 隨後表示這項變動僅影響 2% 的新註冊用戶,並已恢復原狀,承諾未來若調整價格將提前通知。Anthropic 增長負責人 Amol Avasare 表示,目前的定價方案並未考量到用戶使用模式的改變,例如代理程式長時間運作及每位訂閱用戶的參與度提高,因此正在考慮新的定價選項。OpenAI 執行長奧特曼(Sam Altman)也曾針對 Anthropic 的此項價格變動在社群媒體上發表言論,反映出 AI 領域競爭的激烈與快速應變的市場動態。
